在元加强学习(META RL)中,代理商从一组培训任务中学习如何快速解决从相同的任务分布中绘制的新任务。最佳的元rl政策,又称贝叶斯最佳行为,是很好的定义,并保证了对任务分布的预期最佳奖励。我们在这项工作中探讨的问题是,需要多少培训任务来确保具有很高可能性的大致最佳行为。最近的工作为无模型设置提供了第一个这样的PAC分析,其中从培训任务中学到了依赖历史的政策。在这项工作中,我们提出了一种不同的方法:使用密度估计技术直接学习任务分布,然后对学习任务分布进行培训。我们表明,我们的方法导致界限取决于任务分布的维度。特别是,在任务分布中处于低维多方面的环境中,我们将分析扩展到使用降低性降低技术并说明这种结构,从而比以前的工作明显更好,这严格取决于状态和行动的数量。我们方法的关键是内核密度估计方法所隐含的正则化。我们进一步证明,当“插入”最先进的Varibad Meta RL算法时,这种正则化在实践中很有用。
translated by 谷歌翻译
The number of international benchmarking competitions is steadily increasing in various fields of machine learning (ML) research and practice. So far, however, little is known about the common practice as well as bottlenecks faced by the community in tackling the research questions posed. To shed light on the status quo of algorithm development in the specific field of biomedical imaging analysis, we designed an international survey that was issued to all participants of challenges conducted in conjunction with the IEEE ISBI 2021 and MICCAI 2021 conferences (80 competitions in total). The survey covered participants' expertise and working environments, their chosen strategies, as well as algorithm characteristics. A median of 72% challenge participants took part in the survey. According to our results, knowledge exchange was the primary incentive (70%) for participation, while the reception of prize money played only a minor role (16%). While a median of 80 working hours was spent on method development, a large portion of participants stated that they did not have enough time for method development (32%). 25% perceived the infrastructure to be a bottleneck. Overall, 94% of all solutions were deep learning-based. Of these, 84% were based on standard architectures. 43% of the respondents reported that the data samples (e.g., images) were too large to be processed at once. This was most commonly addressed by patch-based training (69%), downsampling (37%), and solving 3D analysis tasks as a series of 2D tasks. K-fold cross-validation on the training set was performed by only 37% of the participants and only 50% of the participants performed ensembling based on multiple identical models (61%) or heterogeneous models (39%). 48% of the respondents applied postprocessing steps.
translated by 谷歌翻译
Estimating uncertainty in image-to-image networks is an important task, particularly as such networks are being increasingly deployed in the biological and medical imaging realms. In this paper, we introduce a new approach to this problem based on masking. Given an existing image-to-image network, our approach computes a mask such that the distance between the masked reconstructed image and the masked true image is guaranteed to be less than a specified threshold, with high probability. The mask thus identifies the more certain regions of the reconstructed image. Our approach is agnostic to the underlying image-to-image network, and only requires triples of the input (degraded), reconstructed and true images for training. Furthermore, our method is agnostic to the distance metric used. As a result, one can use $L_p$-style distances or perceptual distances like LPIPS, which contrasts with interval-based approaches to uncertainty. Our theoretical guarantees derive from a conformal calibration procedure. We evaluate our mask-based approach to uncertainty on image colorization, image completion, and super-resolution tasks, demonstrating high quality performance on each.
translated by 谷歌翻译
Diffusion models have quickly become the go-to paradigm for generative modelling of perceptual signals (such as images and sound) through iterative refinement. Their success hinges on the fact that the underlying physical phenomena are continuous. For inherently discrete and categorical data such as language, various diffusion-inspired alternatives have been proposed. However, the continuous nature of diffusion models conveys many benefits, and in this work we endeavour to preserve it. We propose CDCD, a framework for modelling categorical data with diffusion models that are continuous both in time and input space. We demonstrate its efficacy on several language modelling tasks.
translated by 谷歌翻译
决策和计划最复杂的任务之一是收集信息。当状态具有高维度,并且无法用参数分布表达其信念时,此任务就会变得更加复杂。尽管国家是高维的,但在许多问题中,其中只有一小部分可能涉及过渡状态和产生观察结果。我们利用这一事实来计算信息理论的预期奖励,共同信息(MI),在国家的较低维度子集中,以提高效率和不牺牲准确性。以前的工作中使用了类似的方法,但专门用于高斯分布,我们在这里将其扩展为一般分布。此外,我们将降低维度降低用于将新状态扩展到上一个的情况下,又不牺牲准确性。然后,我们继续开发以连续的蒙特卡洛(SMC)方式工作的MI估计器,并避免重建未来信念的表面。最后,我们展示了如何将这项工作应用于信息丰富的计划优化问题。然后在模拟主动大满贯问题的模拟中评估这项工作,其中证明了准确性和时序的提高。
translated by 谷歌翻译
许多具有挑战性的现实世界问题需要部署合奏多个互补学习模型,以达到可接受的绩效水平。虽然有效,但将整个合奏应用于每个样本都是昂贵且通常不必要的。深钢筋学习(DRL)提供了一种具有成本效益的替代方案,其中检测器是根据其前辈的输出动态选择的,其实用性加权其计算成本。尽管它们具有潜力,但基于DRL的解决方案并未在这种能力中广泛使用,部分原因是在为每个新任务配置奖励功能,DRL代理对数据变化的不可预测反应以及无法使用常见的反应的困难。性能指标(例如TPR/FPR)指导该算法的性能。在这项研究中,我们提出了用于微调和校准基于DRL的策略的方法,以便它们可以满足多个绩效目标。此外,我们提出了一种将有效的安全策略从一个数据集传输到另一个数据集的方法。最后,我们证明我们的方法对对抗性攻击非常强大。
translated by 谷歌翻译
矩阵函数可用于重写光滑光谱约束的矩阵优化问题,因为在一组对称矩阵的集合中,不受限制的问题,然后通过立方规范化的牛顿方法求解。事实证明,矩阵函数的二阶链条规则身份可以计算高阶导数以实现立方规范化的牛顿,并为矩阵矢量空间的立方调节牛顿提供了新的收敛分析。我们通过在合成数据集和真实数据集上进行数值实验来证明我们的方法的适用性。在我们的实验中,我们制定了一个新的模型,以估算泰勒的M-估计器(TME)模型的精神估算公平和稳健的协方差矩阵并证明其优势。
translated by 谷歌翻译
自主物理科学领域 - 机器学习指南和从闭环中的实验中学习的领域正在迅速增长。自主系统使科学家能够更聪明,学习速度更快,并在其研究中花费更少的资源。该领域有望改善各种设施的性能,例如实验室,研发管道和仓库。随着自主系统的数量,能力和复杂性的增长,出现了新的挑战 - 这些系统将如何在大型设施中共同运行?我们探索了这个问题的一种解决方案 - 一个多代理框架。我们展示了一个具有1)具有现实资源限制的模拟设施,例如设备使用限制,2)具有多种学习能力和目标的机器学习代理,对实验室仪器的控制以及运行研究活动的能力以及3)网络这些代理可以共享知识并共同努力以实现个人或集体目标。该框架被称为多代理自治设施 - 可扩展的框架又称多任务。多任务允许整个设施的模拟,包括代理启动和代理代理交互。框架模块化使真实世界的自主空间可以阶段上线,模拟仪器逐渐被现实世界的仪器代替。在这里,我们通过模拟材料实验室中的材料探索和优化的现实世界材料科学挑战演示了框架。我们希望该框架在基于代理的设施控制场景中开辟了新的研究领域基于游戏理论。
translated by 谷歌翻译
欧洲机械指令和相关的统一标准确实认为软件用于生成机械的安全性行为,但不考虑各种软件。特别是,未考虑基于机器学习(ML)的软件以实现与安全相关的行为。这限制了为自动移动机器人和其他自动驾驶机械引入合适的安全概念,这些机械通常取决于基于ML的功能。我们调查了此问题以及安全标准定义要针对软件故障实施的安全措施的方式。功能安全标准使用安全完整性水平(SILS)来定义应采取哪些安全措施。它们提供了确定SIL和根据SIL选择安全措施的规则的规则。在本文中,我们认为这种方法在ML和其他类型的人工智能(AI)方面很难采用。我们建议使用保证案例来争辩说,在给定情况下,我们建议使用保证案例的简单规则,而是建议使用保证案例来辩称单独选择和应用的措施就足够了。为了获得有关提案的可行性和实用性的第一个评级,我们在讲习班中与工业专家,德国法定事故保险公司,工作安全和标准化委员会以及来自各种国家,欧洲和国际工作的代表进行了讨论和讨论。处理安全和AI的小组。在本文中,我们总结了提案和研讨会的讨论。此外,我们检查我们的建议与欧洲AI ACT提案和当前的安全标准化计划有关的程度一致
translated by 谷歌翻译
我们提出了一种整体方法,用于构建一个可实现的自然语言分类系统,以实现现实世界中的内容适度。这样一个系统的成功依赖于一系列精心设计和执行的步骤,包括内容分类法和标签说明的设计,数据质量控制,主动学习管道以捕获罕见事件以及使模型可靠的各种方法并避免过度拟合。我们的审核系统经过培训,可以检测一系列不希望的内容,包括性内容,可恨的内容,暴力,自我伤害和骚扰。这种方法概括为各种不同的内容分类法,可用于创建优于现成模型的高质量内容分类器。
translated by 谷歌翻译